范式转变
我们正从一种 “以性能为唯一目标” 心态,转向一种 负责任的人工智能(RAI) 框架。在这个新时代,技术的成功严格依赖于伦理上的稳健性以及安全的保障机制。
1. 受限优化
历史上,目标是极小化损失函数 $L(\theta)$。新的范式将人工智能视为一个受限优化问题:$$\max P \text{ 受制于 } C_1, C_2, \dots, C_n$$ 其中 $C$ 代表不可妥协的安全与公平阈值。
2. “体外”与“体内”之间的差距
模型通常在静态基准测试上取得最先进(SOTA)的结果(体外),但在现实世界的社会技术环境中却出现灾难性失败(体内),这是由于未预见的交互作用所导致。
左侧:高准确率/高速度,零安全性和透明度。右侧:代表安全、公平和可解释性的均衡六边形。
示例:高频交易
仅追求性能的模型若能最大化投资回报率(ROI)则算成功。而负责任的人工智能(RAI)模型如果虽获得高回报率但引发了 “闪崩” 则是失败,因为缺乏市场稳定性保护措施。